NVIDIAは2026年1月6日、CES(米国時間1月5日、ラスベガス)に合わせ、レベル4自動運転の開発を狙ったオープンソースのAI群「NVIDIA Alpamayo」ファミリーを公開しました。中核は推論(Chain-of-Thought)を使う視覚言語行動(VLA)モデル「Alpamayo 1」で、規模は100億パラメータ、映像入力から判断の根拠となる推論トレースと走行軌跡を生成します。さらに、完全オープンソースのシミュレーション基盤「AlpaSim」と、1,700時間超の走行データを収録した「Physical AI Open Dataset」を組み合わせて提供します。

自動運転では、発生頻度は低い一方で危険度が高い「ロングテール」と呼ばれる稀なシナリオが安全性の壁になります。従来のように認識と計画を分けた構成では、未経験の状況への拡張が難しくなる場合があるため、NVIDIAは因果関係を推論して行動につなげるリーズニング能力が重要だと位置付けました。VLAはカメラなどの視覚情報と言語情報を統合し、運転行動(加減速や進路)まで扱うモデルです。

Alpamayo 1は車載でそのまま動かす実行用モデルというより、大規模な教師モデルとして公開し、開発者が自社データでファインチューニングや抽出、テストを行って自動運転スタックに統合する前提です。閉ループ(走行結果が次の判断に影響する)で検証できるAlpaSimと、長時間データセットを併用することで、ロングテールを含むケースを反復学習・検証する開発ループを作る考えです。Lucid、JLR、Uber、Berkeley DeepDriveなどが関心を示したとし、透明性の高いオープン開発が責任ある自動運転に必要だとの見解も紹介しました。今後は、モデルのパラメータ増や推論能力の高度化、入出力の柔軟性向上、商用利用オプションなどを検討するとしており、シミュレーションとデータの拡充が実運用に向けた検証スピードを左右しそうです。

Share.